针对现有跨视角地理定位方法中视点不变特征与视角转换方法割裂导致的性能提升瓶颈问题,提出多任务联合学习模型(MJLM)。MJLM由前置图像生成模型和后置图像检索模型组成。前置生成模型首先使用逆透视映射(IPM)进行坐标变换,显式地弥合空间域差,使投影图像与真实卫星图的空间几何特征大致相同;然后通过提出的跨视角生成对抗网络(CVGAN)隐式地对图像内容及纹理进行细粒度的匹配和修复,并合成出更平滑且真实的卫星图像。后置检索模型由多视角多监督网络(MMNet)构成,能够兼顾多尺度特征和多监督学习的图像检索任务。在University-1652(无人机定位数据集)上进行实验,结果显示MJLM对无人机(UAV)定位任务的平均精确率(AP)及召回率(R@1)分别达到89.22%和87.54%,与LPN (Local Pattern Network)和MSBA (MultiScale Block Attention)相比,MJLM在R@1上分别提升了15.29%和1.07%。可见,MJLM能在一个聚合框架体系内联合处理跨视角图像生成任务及检索任务,实现基于视角转换与视点不变特征方法的融合,有效提升跨视角地理定位的精度和鲁棒性,验证UAV定位的可行性。
针对视觉机械臂在复杂系统环境下整体精度不高、不易部署、校准成本高的问题,提出一种鲁棒的视觉机械臂联合建模优化方法。首先,对视觉机械臂的各个子系统模型进行集成,在机械臂的工作空间随机采集伺服电机转角、机械臂末端坐标等数据。其次,提出一种具有分层优化机制的自适应多精英引导复合差分进化算法(AMECoDEs-LO),使用参数辨识的方法同时优化联合系统参数。AMECoDEs-LO对种群中阶段性的数据进行主成分分析(PCA),以参数降维的思想实现对收敛精度和速度的隐式引导。实验结果表明,在AMECoDEs-LO和联合系统模型的作用下,视觉机械臂在校准过程中不需要额外的仪器,部署速度快,最终精度相较于传统方法提高60%;在机械臂连杆受损、伺服电机精度降低、相机定位噪声增大的情况下,系统仍然保持较高精度,验证了所提方法的鲁棒性。
在图像标注、疾病诊断等实际分类任务中,数据标记空间的类别通常存在着层次化结构关系,且伴随着特征的高维性。许多层次特征选择算法因不同的实际任务需求而提出,但这些已有的特征选择算法忽略了特征空间的未知性和不确定性。针对上述问题,提出一种基于ReliefF的面向层次分类学习的在线流特征选择算法OH_ReliefF。首先将类别之间的层次关系融入ReliefF算法中,定义一种新的面向层次化数据的特征权重计算算法HF_ReliefF;其次,利用特征对决策属性的划分能力动态选择重要特征;最后,基于特征之间的独立性对特征进行动态冗余分析。实验结果表明,与五种先进的在线流特征选择算法作对比,OH_ReliefF算法在K最邻近(KNN)分类器和拉格朗日支持向量机(LSVM)分类器的各个评价指标中都取得较优的结果,准确率最少提高7个百分点。
针对现有跨视角图像匹配算法精度低的问题,提出了一种基于多视角多监督网络(MMNet)的无人机(UAV)定位方法。首先,所提方法融合卫星视角和UAV视角,在统一的网络架构下学习全局和局部特征并以多监督方式训练分类网络并执行度量任务。具体来说,MMNet主要采用了重加权正则化三元组损失(RRT)学习全局特征,该损失利用重加权和距离正则化加权策略来解决多视角样本不平衡以及特征空间结构紊乱的问题。同时,为了关注目标地点中心建筑的上下文信息,MMNet对特征图进行方形环切割来获取局部特征。然后,分别用交叉熵损失和RRT执行分类和度量任务。最终,使用加权策略聚合全局和局部特征来表征目标地点图像。通过在当前流行的UAV数据集University-1652上进行实验,可知MMNet在UAV定位任务的召回率Recall@1 (R@1)及平均精准率(AP)上分别达到83.97%和86.96%。实验结果表明,相较于LCM、SFPN等方法,MMNet显著提升了跨视角图像的匹配精度,进而增强了UAV图像定位的实用性。
针对显著性目标检测过程中的背景干扰问题,提出了一种基于滤波合成的关键显著性目标检测算法。该算法将局部指导滤波与改进的差分高斯(DoG)滤波方法相结合,使显著性目标更加凸显;然后,利用得到的显著性图确定关键点集合,通过调整因子得到更符合视觉机制的显著性检测结果。实验表明,所提算法优于现有显著性检测方法。与局部对比度(LC)方法、谱残差(SR)方法、基于直方图对比度(HC)方法、区域对比度(RC)方法、基于调频(FT)的方法等相比,背景与干扰目标得到有效抑制,同时具有更高的精度和更好的召回率。